home *** CD-ROM | disk | FTP | other *** search
/ Group 42-Sells Out! - The Information Archive / Group 42 Sells Out (Group 42) (1996).iso / internet / eff / eff0514.txt < prev    next >
Text File  |  1995-11-30  |  31KB  |  635 lines

  1. ******************************************************************
  2.            //////////////     //////////////     //////////////
  3.          ///                ///                ///
  4.        ///////            ///////            ///////
  5.      ///                ///                ///
  6.    //////////////     ///                ///
  7. ******************************************************************
  8. EFFector Online Volume 5 No. 14       8/5/1993       editors@eff.org
  9. A Publication of the Electronic Frontier Foundation   ISSN 1062-9424
  10.  
  11.                   -==--==--==-<>-==--==--==- 
  12.                         In this issue:
  13.                  Answers to Clipper Questions
  14.                  SKIPJACK Review
  15.                  Another Job Opening at EFF
  16.                    -==--==--==-<>-==--==--==- 
  17.  
  18.  
  19. ****************************
  20. Answers to Clipper Questions
  21. ****************************
  22. In a previous EFFector Online, we printed some of the 114 questions sent to
  23. President Clinton by the Digital Privacy & Security Working Group on the
  24. Clipper Chip.  On July 29, we received a response to these questions from
  25. John D. Podesta, Assistant to the President and Staff Secretary.  Some
  26. highlights of the response follow.  The complete text of the response will
  27. be posted to EFF's ftp site.
  28.  
  29. Why is key escrow being proposed?
  30.  
  31. The development of key escrow encryption technology was born out of a
  32. recognition on the part of the U.S. Government of the public's growing
  33. desire for high quality encryption capability for commercial and private
  34. use.  At the same time, the Government was concerned that the widespread
  35. use of this technology could make lawfully authorized electronic
  36. surveillance much more difficult.  Historically, law enforcement
  37. encountered very little encryption, owing largely to the expense and
  38. difficulty in using such technology.  With growing availability of lower
  39. cost, commercial encryption technology for use by U.S. industry and private
  40. citizens, it became clear that a strategy was needed that could accommodate
  41. the needs of the private sector for top notch communications security; of
  42. U.S. industry to remain competitive in the world's secure communications
  43. market; and of U.S. law enforcement to conduct lawfully-authorized
  44. electronic surveillance.
  45.  
  46. Enhancing the government's ability to decrypt non-key escrow encryption
  47. used by the targets of authorized law enforcement wiretaps is another
  48. possible strategy for coping with the effects of encryption on law
  49. enforcement.  However, since encryption appears in a number of forms and
  50. applications, the costs are likely to be substantial and may not be either
  51. affordable or practical given the requirement for "real time" decryption in
  52. the course of wiretap operations.
  53.  
  54. Why is the algorithm classified?
  55.  
  56. A classified algorithm is essential to the effectiveness of the key escrow
  57. solution.  The use of a classified algorithm assures no one can use the
  58. algorithm in non-escrowed systems.  Also, disclosure of the algorithm
  59. would, in effect, provide the world with an extremely secure encryption
  60. capability that could be implemented and used in systems by those whose
  61. interests are adverse to U.S. national security interests.  Finally, NSA
  62. classifies all of the algorithms used for defense systems as part of its
  63. policy to take all reasonable steps to assure the security of systems it
  64. develops.  The algorithm was classified in accordance with Executive Order
  65. 12356 and its implementing regulations.
  66.  
  67. For all these reasons the encryption algorithm could not be chosen from
  68. those already available to the public, such as the Data Encryption Standard
  69. (DES).  Similarly, the algorithm cannot be published for public review and
  70. comment.  Nonetheless, in keeping with the Presidential Decision Directive
  71. of April to allow independent experts to review the integrity of the
  72. classified algorithm, five such experts have already begun a study of the
  73. algorithm.  We expect their findings to be made public soon.
  74.  
  75. Is the key escrow initiative compatible with constitutional rights?
  76.  
  77. Questions have been raised whether the requirement of key disclosure
  78. infringes upon one's right to free speech under the First Amendment, the
  79. right against self incrimination contained in the Fifth Amendment, or the
  80. right against improper search and seizure in the Fourth Amendment.  The key
  81. escrow scheme does not require the owner or user of a device equipped with
  82. the key escrow encryption chip to say or produce anything.  The key escrow
  83. technique in no way addresses the issue of what people may choose to say,
  84. and the individual user of key escrow products will not be required to
  85. provide the government any information.  Indeed, the individual will not
  86. know the keys.  Thus, this technology or technique in no way impacts the
  87. rights available under the First or Fifth Amendments.
  88.  
  89. Law enforcement organizations will not be able to decrypt communications
  90. without the device unique key and they can only obtain the key components
  91. needed to determine a device unique key after making an appropriate
  92. certification of their authority to conduct electronic surveillance to the
  93. independent key escrow agents.  Thus, this technology actually strengthens
  94. the Fourth Amendment protections afforded individuals, since law
  95. enforcement cannot obtain the contents of communications without first
  96. obtaining the key component.
  97.  
  98. Will use of the key escrow technology be required?
  99.  
  100. One point clearly stated in the Presidential Decision Directive and
  101. emphasized several times since April is that use of key escrow encryption
  102. technology is voluntary.  While the U.S. government encourages its use
  103. because of the excellent security it provides, and will promulgate
  104. standards permitting its use by government departments and agencies, there
  105. is no requirement that the public use it.  No doubt some, particularly
  106. those intent on thwarting authorized wiretaps, will buy other forms of
  107. encryption or could "double encrypt" their communications suing a key
  108. escrow device in combination with a non-escrowed device.  But we believe
  109. the vast majority will buy this system because it is easy to use, provides
  110. superb security, and likely will be readily available in commercial
  111. products.
  112.  
  113. The Administration has chosen to encourage the widespread use of key escrow
  114. devices rather than mandating or regulating its use.  Though we recognize
  115. the risks to law enforcement activities posed by the widespread use of
  116. sophisticated encryption products, we also recognize that encryption is an
  117. effective means to secure communications and computer systems.  Thus far,
  118. government purchases and standards have created secure products that sere
  119. bought by private citizens "piggybacking" on the government's development
  120. effort.  It makes little sense for the government to promulgate standards
  121. or to develop products that will defeat law enforcement interests if and
  122. when they spread to the private sector.  Because these measures may be
  123. sufficient to make key escrow encryption the easiest and most available
  124. privacy protection it would be imprudent to pursue the far more drastic
  125. step of regulating private encryption.  The Administration has progressed
  126. far enough in its review to conclude it will not propose new legislation to
  127. limit use of encryption technology.
  128.  
  129.  
  130. ***************
  131. SKIPJACK Review
  132. ***************
  133. The following interim report on the SKIPJACK, formerly Clipper, chip was
  134. posted by Dorothy Denning to sci.crypt.  It is reprinted here for
  135. nonmembers of that list.
  136.  
  137.                             SKIPJACK Review
  138.                                     
  139.                              Interim Report
  140.                                     
  141.                         The SKIPJACK Algorithm
  142.  
  143.  
  144.            Ernest F. Brickell, Sandia National Laboratories
  145.                Dorothy E. Denning, Georgetown University
  146.             Stephen T. Kent, BBN Communications Corporation
  147.                           David P. Maher, AT&T
  148.                   Walter Tuchman, Amperif Corporation
  149.                                     
  150.                               July 28, 1993
  151.  
  152.                             (copyright 1993)
  153.  
  154.  
  155. Executive Summary
  156.  
  157. The objective of the SKIPJACK review was to provide a mechanism whereby
  158. persons outside the government could evaluate the strength of the
  159. classified encryption algorithm used in the escrowed encryption devices
  160. and publicly report their findings.  Because SKIPJACK is but one
  161. component of a large, complex system, and because the security of
  162. communications encrypted with SKIPJACK depends on the security of the
  163. system as a whole, the review was extended to encompass other
  164. components of the system.  The purpose of this Interim Report is to
  165. report on our evaluation of the SKIPJACK algorithm.  A later Final
  166. Report will address the broader system issues.
  167.  
  168. The results of our evaluation of the SKIPJACK algorithm are as
  169. follows:
  170.  
  171.   1. Under an assumption that the cost of processing power is halved
  172.      every eighteen months, it will be 36 years before the cost of
  173.      breaking SKIPJACK by exhaustive search will be equal to the cost
  174.      of breaking DES today.  Thus, there is no significant risk that
  175.      SKIPJACK will be broken by exhaustive search in the next 30-40
  176.      years.
  177.  
  178.   2. There is no significant risk that SKIPJACK can be broken through a
  179.      shortcut method of attack.
  180.  
  181.   3. While the internal structure of SKIPJACK must be classified in
  182.      order to protect law enforcement and national security objectives,
  183.      the strength of SKIPJACK against a cryptanalytic attack does not
  184.      depend on the secrecy of the algorithm.
  185.  
  186.  
  187.  
  188. 1.  Background
  189.  
  190. On April 16, the President announced a new technology initiative aimed
  191. at providing a high level of security for sensitive, unclassified
  192. communications, while enabling lawfully authorized intercepts of
  193. telecommunications by law enforcement officials for criminal
  194. investigations.  The initiative includes several components:
  195.  
  196.     A classified encryption/decryption algorithm called "SKIPJACK."
  197.  
  198.     Tamper-resistant cryptographic devices (e.g., electronic chips),
  199.     each of which contains SKIPJACK, classified control software, a
  200.     device identification number, a family key used by law enforcement,
  201.     and a device unique key that unlocks the session key used to
  202.     encrypt a particular communication.
  203.  
  204.     A secure facility for generating device unique keys and programming
  205.     the devices with the classified algorithms, identifiers, and keys.
  206.  
  207.     Two escrow agents that each hold a component of every device unique
  208.     key.  When combined, those two components form the device unique
  209.     key.
  210.  
  211.     A law enforcement access field (LEAF), which enables an authorized
  212.     law enforcement official to recover the session key.  The LEAF is
  213.     created by a device at the start of an encrypted communication and
  214.     contains the session key encrypted under the device unique key
  215.     together with the device identifier, all encrypted under the family
  216.     key.
  217.  
  218.     LEAF decoders that allow an authorized law enforcement official to
  219.     extract the device identifier and encrypted session key from an
  220.     intercepted LEAF.  The identifier is then sent to the escrow
  221.     agents, who return the components of the corresponding device
  222.     unique key.  Once obtained, the components are used to reconstruct
  223.     the device unique key, which is then used to decrypt the session
  224.     key.
  225.  
  226. This report reviews the security provided by the first component,
  227. namely the SKIPJACK algorithm.  The review was performed pursuant to
  228. the President's direction that "respected experts from outside the
  229. government will be offered access to the confidential details of the
  230. algorithm to assess its capabilities and publicly report their
  231. finding."  The Acting Director of the National Institute of Standards
  232. and Technology (NIST) sent letters of invitation to potential
  233. reviewers.  The authors of this report accepted that invitation.
  234.  
  235. We attended an initial meeting at the Institute for Defense Analyses
  236. Supercomputing Research Center (SRC) from June 21-23.  At that meeting,
  237. the designer of SKIPJACK provided a complete, detailed description of
  238. the algorithm, the rationale for each feature, and the history of the
  239. design.  The head of the NSA evaluation team described the evaluation
  240. process and its results.  Other NSA staff briefed us on the LEAF
  241. structure and protocols for use, generation of device keys, protection
  242. of the devices against reverse engineering, and NSA's history in the
  243. design and evaluation of encryption methods contained in SKIPJACK.
  244. Additional NSA and NIST staff were present at the meeting to answer our
  245. questions and provide assistance.  All staff members were forthcoming
  246. in providing us with requested information.
  247.  
  248. At the June meeting, we agreed to integrate our individual evaluations
  249. into this joint report.  We also agreed to reconvene at SRC from July
  250. 19-21 for further discussions and to complete a draft of the report.
  251. In the interim, we undertook independent tasks according to our
  252. individual interests and availability.  Ernest Brickell specified a
  253. suite of tests for evaluating SKIPJACK.  Dorothy Denning worked at NSA
  254. on the refinement and execution of these and other tests that took into
  255. account suggestions solicited from Professor Martin Hellman at Stanford
  256. University.  NSA staff assisted with the programming and execution of
  257. these tests.  Denning also analyzed the structure of SKIPJACK and its
  258. susceptibility to differential cryptanalysis.  Stephen Kent visited NSA
  259. to explore in more detail how SKIPJACK compared with NSA encryption
  260. algorithms that he already knew and that were used to protect
  261. classified data.  David Maher developed a risk assessment approach
  262. while continuing his ongoing work on the use of the encryption chip in
  263. the AT&T Telephone Security Device.  Walter Tuchman investigated the
  264. anti-reverse engineering properties of the chips.
  265.  
  266. We investigated more than just SKIPJACK because the security of
  267. communications encrypted with the escrowed encryption technology
  268. depends on the security provided by all the components of the
  269. initiative, including protection of the keys stored on the devices,
  270. protection of the key components stored with the escrow agents, the
  271. security provided by the LEAF and LEAF decoder, protection of keys
  272. after they have been transmitted to law enforcement under court order,
  273. and the resistance of the devices to reverse engineering.  In addition,
  274. the success of the technology initiative depends on factors besides
  275. security, for example, performance of the chips.  Because some
  276. components of the escrowed encryption system, particularly the key
  277. escrow system, are still under design, we decided to issue this Interim
  278. Report on the security of the SKIPJACK algorithm and to defer our Final
  279. Report until we could complete our evaluation of the system as a
  280. whole.
  281.  
  282.  
  283. 2.  Overview of the SKIPJACK Algorithm
  284.  
  285. SKIPJACK is a 64-bit "electronic codebook" algorithm that transforms a
  286. 64-bit input block into a 64-bit output block.  The transformation is
  287. parameterized by an 80-bit key, and involves performing 32 steps or
  288. iterations of a complex, nonlinear function.  The algorithm can be used
  289. in any one of the four operating modes defined in FIPS 81 for use with
  290. the Data Encryption Standard (DES).
  291.  
  292. The SKIPJACK algorithm was developed by NSA and is classified SECRET.
  293. It is representative of a family of encryption algorithms developed in
  294. 1980 as part of the NSA suite of "Type I" algorithms, suitable for
  295. protecting all levels of classified data.  The specific algorithm,
  296. SKIPJACK, is intended to be used with sensitive but unclassified
  297. information.
  298.  
  299. The strength of any encryption algorithm depends on its ability to
  300. withstand an attack aimed at determining either the key or the
  301. unencrypted ("plaintext") communications.  There are basically two
  302. types of attack, brute-force and shortcut.
  303.  
  304.  
  305. 3.  Susceptibility to Brute Force Attack by Exhaustive Search
  306.  
  307. In a brute-force attack (also called "exhaustive search"), the
  308. adversary essentially tries all possible keys until one is found that
  309. decrypts the intercepted communications into a known or meaningful
  310. plaintext message.  The resources required to perform an exhaustive
  311. search depend on the length of the keys, since the number of possible
  312. keys is directly related to key length.  In particular, a key of length
  313. N bits has 2^N possibilities.  SKIPJACK uses 80-bit keys, which means
  314. there are 2^80 (approximately 10^24) or more than 1 trillion
  315. possible keys.
  316.  
  317. An implementation of  SKIPJACK optimized for a single processor on the
  318. 8-processor Cray YMP performs about 89,000 encryptions per second.  At
  319. that rate, it would take more than 400 billion years to try all keys.
  320. Assuming the use of all 8 processors and aggressive vectorization, the
  321. time would be reduced to about a billion years.
  322.  
  323. A more speculative attack using a future, hypothetical, massively
  324. parallel machine with 100,000 RISC processors, each of which was
  325. capable of 100,000 encryptions per second, would still take about 4
  326. million years.  The cost of such a machine might be on the order of $50
  327. million.  In an even more speculative attack, a special purpose machine
  328. might be built using 1.2 billion $1 chips with a 1 GHz clock.  If the
  329. algorithm could be pipelined so that one encryption step were performed
  330. per clock cycle, then the $1.2 billion machine could exhaust the key
  331. space in 1 year.
  332.  
  333. Another way of looking at the problem is by comparing a brute force
  334. attack on SKIPJACK with one on DES, which uses 56-bit keys.  Given that
  335. no one has demonstrated a capability for breaking DES, DES offers a
  336. reasonable benchmark.  Since SKIPJACK keys are 24 bits longer than DES
  337. keys, there are 2^24 times more possibilities.  Assuming that the cost
  338. of processing power is halved every eighteen months, then it will not
  339. be for another 24 * 1.5 = 36 years before the cost of breaking
  340. SKIPJACK is equal to the cost of breaking DES today.  Given the lack of
  341. demonstrated capability for breaking DES, and the expectation that the
  342. situation will continue for at least several more years, one can
  343. reasonably expect that SKIPJACK will not be broken within the next
  344. 30-40 years.
  345.  
  346. Conclusion 1:   Under an assumption that the cost of processing power
  347. is halved every eighteen months, it will be 36 years before the cost of
  348. breaking SKIPJACK by exhaustive search will be equal to the cost of
  349. breaking DES today.  Thus, there is no significant risk that SKIPJACK
  350. will be broken by exhaustive search in the next 30-40 years.
  351.  
  352. 4.  Susceptibility to Shortcut Attacks
  353.  
  354. In a shortcut attack, the adversary exploits some property of the
  355. encryption algorithm that enables the key or plaintext to be determined
  356. in much less time than by exhaustive search.  For example, the RSA
  357. public-key encryption method is attacked by factoring a public value
  358. that is the product of two secret primes into its primes.
  359.  
  360. Most shortcut attacks use probabilistic or statistical methods that
  361. exploit a structural weakness, unintentional or intentional (i.e., a
  362. "trapdoor"), in the encryption algorithm.  In order to determine
  363. whether such attacks are possible, it is necessary to thoroughly
  364. examine the structure of the algorithm and its statistical properties.
  365. In the time available for this review, it was not feasible to conduct
  366. an evaluation on the scale that NSA has conducted or that has been
  367. conducted on the DES.  Such review would require many man-years of
  368. effort over a considerable time interval.  Instead, we concentrated on
  369. reviewing NSA's design and evaluation process.  In addition, we
  370. conducted several of our own tests.
  371.  
  372. 4.1  NSA's Design and Evaluation Process
  373.  
  374. SKIPJACK was designed using building blocks and techniques that date
  375. back more than forty years.  Many of the techniques are related to work
  376. that was evaluated by some of the world's most accomplished and famous
  377. experts in combinatorics and abstract algebra.  SKIPJACK's more
  378. immediate heritage dates to around 1980, and its initial design to
  379. 1987.
  380.  
  381. SKIPJACK was designed to be evaluatable, and the design and evaluation
  382. approach was the same used with algorithms that protect the country's
  383. most sensitive classified information.  The specific structures
  384. included in SKIPJACK have a long evaluation history, and the
  385. cryptographic properties of those structures had many prior years of
  386. intense study before the formal process began in 1987.  Thus, an
  387. arsenal of tools and data was available.  This arsenal was used by
  388. dozens of adversarial evaluators whose job was to break SKIPJACK.  Many
  389. spent at least a full year working on the algorithm.  Besides highly
  390. experienced evaluators, SKIPJACK was subjected to cryptanalysis by less
  391. experienced evaluators who were untainted by past approaches.  All
  392. known methods of attacks were explored, including differential
  393. cryptanalysis.  The goal was a design that did not allow a shortcut
  394. attack.
  395.  
  396. The design underwent a sequence of iterations based on feedback from
  397. the evaluation process.  These iterations eliminated properties which,
  398. even though they might not allow successful attack, were related to
  399. properties that could be indicative of vulnerabilities.  The head of
  400. the NSA evaluation team confidently concluded "I believe that SKIPJACK
  401. can only be broken by brute force   there is no better way."
  402.  
  403. In summary, SKIPJACK is based on some of NSA's best technology.
  404. Considerable care went into its design and evaluation in accordance
  405. with the care given to algorithms that protect classified data.
  406.  
  407. 4.2  Independent Analysis and Testing
  408.  
  409. Our own analysis and testing increased our confidence in the strength
  410. of SKIPJACK and its resistance to attack.
  411.  
  412. 4.2.1  Randomness and Correlation Tests
  413.  
  414. A strong encryption algorithm will behave like a random function of the
  415. key and plaintext so that it is impossible to determine any of the key
  416. bits or plaintext bits from the ciphertext bits (except by exhaustive
  417. search).  We ran two sets of tests aimed at determining whether
  418. SKIPJACK is a good pseudo random number generator.  These tests were
  419. run on a Cray YMP at NSA.  The results showed that SKIPJACK behaves
  420. like a random function and that ciphertext bits are not correlated with
  421. either key bits or plaintext bits.  Appendix A gives more details.
  422.  
  423. 4.2.2  Differential Cryptanalysis
  424.  
  425. Differential cryptanalysis is a powerful method of attack that exploits
  426. structural properties in an encryption algorithm.  The method involves
  427. analyzing the structure of the algorithm in order to determine the
  428. effect of particular differences in plaintext pairs on the differences
  429. of their corresponding ciphertext pairs, where the differences are
  430. represented by the exclusive-or of the pair.  If it is possible to
  431. exploit these differential effects in order to determine a key in less
  432. time than with exhaustive search, an encryption algorithm is said to be
  433. susceptible to differential cryptanalysis.  However, an actual attack
  434. using differential cryptanalysis may require substantially more chosen
  435. plaintext than can be practically acquired.
  436.  
  437. We examined the internal structure of SKIPJACK to determine its
  438. susceptibility to differential cryptanalysis.  We concluded it was not
  439. possible to perform an attack based on differential cryptanalysis in
  440. less time than with exhaustive search.
  441.  
  442. 4.2.3  Weak Key Test
  443.  
  444. Some algorithms have "weak keys" that might permit a shortcut
  445. solution.  DES has a few weak keys, which follow from a pattern of
  446. symmetry in the algorithm.  We saw no pattern of symmetry in the
  447. SKIPJACK algorithm which could lead to weak keys.  We also
  448. experimentally tested the all "0" key (all 80 bits are "0") and the all
  449. "1" key to see if they were weak and found they were not.
  450.  
  451. 4.2.4  Symmetry Under Complementation Test
  452.  
  453. The DES satisfies the property that for a given plaintext-ciphertext
  454. pair and associated key, encryption of the one's complement of the
  455. plaintext with the one's complement of the key yields the one's
  456. complement of the ciphertext.  This "complementation property" shortens
  457. an attack by exhaustive search by a factor of two since half the keys
  458. can be tested by computing complements in lieu of performing a more
  459. costly encryption.  We tested SKIPJACK for this property and found that
  460. it did not hold.
  461.  
  462. 4.2.5  Comparison with Classified Algorithms
  463.  
  464. We compared the structure of SKIPJACK to that of NSA Type I algorithms
  465. used in current and near-future devices designed to protect classified
  466. data.  This analysis was conducted with the close assistance of the
  467. cryptographer who developed SKIPJACK and included an in-depth
  468. discussion of design rationale for all of the algorithms involved.
  469. Based on this comparative, structural analysis of SKIPJACK against
  470. these other algorithms, and a detailed discussion of the similarities
  471. and differences between these algorithms, our confidence in the basic
  472. soundness of SKIPJACK was further increased.
  473.  
  474. Conclusion 2:  There is no significant risk that SKIPJACK can be broken
  475. through a shortcut method of attack.
  476.  
  477.  
  478. 5.   Secrecy of the Algorithm
  479.  
  480. The SKIPJACK algorithm is sensitive for several reasons.  Disclosure of
  481. the algorithm would permit the construction of devices that fail to
  482. properly implement the LEAF, while still interoperating with legitimate
  483. SKIPJACK devices.  Such devices would provide high quality
  484. cryptographic security without preserving the law enforcement access
  485. capability that distinguishes this cryptographic initiative.
  486. Additionally, the SKIPJACK algorithm is classified SECRET   NOT
  487. RELEASABLE TO FOREIGN NATIONALS.  This classification reflects the high
  488. quality of the algorithm, i.e., it incorporates design techniques that
  489. are representative of algorithms used to protect classified
  490. information.  Disclosure of the algorithm would permit analysis that
  491. could result in discovery of these classified design techniques, and
  492. this would be detrimental to national security.
  493.  
  494. However, while full exposure of the internal details of SKIPJACK would
  495. jeopardize law enforcement and national security objectives, it would
  496. not jeopardize the security of encrypted communications.  This is
  497. because a shortcut attack is not feasible even with full knowledge of
  498. the algorithm.  Indeed, our analysis of the susceptibility of SKIPJACK
  499. to a brute force or shortcut attack was based on the assumption that
  500. the algorithm was known.
  501.  
  502. Conclusion 3:  While the internal structure of SKIPJACK must be
  503. classified in order to protect law enforcement and national security
  504. objectives, the strength of SKIPJACK against a cryptanalytic attack
  505. does not depend on the secrecy of the algorithm.
  506.  
  507.  
  508. **************************
  509. Another Job Opening at EFF
  510. **************************
  511. ONLINE ACTIVIST
  512.  
  513. The Electronic Frontier Foundation (EFF), a nonprofit organization
  514. dedicated to protecting civil liberties for users of newly emerging
  515. technologies, is looking to hire an Online Activist.
  516.  
  517. The Online Activist will actively participate in and organize EFF's sites
  518. on CompuServe, America Online, GEnie, Usenet and the WELL and will
  519. distribute feedback from the various networks to EFF staff and board
  520. through regular online summaries.  This person will provide
  521. leadership to groups of members and will possibly set up and maintain an
  522. EFF BBS.  The Online Activist will help to maintain EFF's ftp library. 
  523. This person will train new EFF staff members on online communications. 
  524. S/he will collect and solicit articles for, write articles for, edit and
  525. assemble our biweekly electronic newsletter, EFFector Online.  The Online
  526. Activist will work with the System Administrator to distribute and post
  527. EFFector Online and other EFF electronic publications and to maintain a
  528. database of form answers for commonly asked questions, along with the
  529. Membership Coordinator.  This person must be willing to work out of EFF's
  530. offices in Washington, DC.
  531.  
  532. The Electronic Frontier Foundation offers a competitive salary with
  533. excellent benefits.  For immediate consideration, please forward a resume,
  534. along with a cover letter describing your online experience and reason for
  535. applying for this job by August 23, 1993, to:
  536.  
  537. Online Activist Search
  538. Electronic Frontier Foundation
  539. 1001 G Street, NW
  540. Suite 950 East
  541. Washington, DC  20001
  542. fax (202) 393-5509
  543. e-mail ssteele@eff.org (ASCII only, please)
  544.  
  545. EFF is an Equal Opportunity Employer.
  546.  
  547.  
  548. =============================================================
  549.  
  550.      EFFector Online is published biweekly by:
  551.  
  552.      Electronic Frontier Foundation
  553.      1001 G Street, N.W., Suite 950 East
  554.      Washington, DC  20001  USA
  555.      Phone:  +1 202 347 5400  FAX:  +1 202 393 5509
  556.      Internet Address:  eff@eff.org
  557.  
  558.      Coordination, production and shipping by Shari Steele,
  559.      Director of Legal Services & Community Outreach (ssteele@eff.org)
  560.  
  561. Reproduction of this publication in electronic media is encouraged.  Signed
  562. articles do not necessarily represent the view of the EFF.  To reproduce
  563. signed articles individually, please contact the authors for their express
  564. permission.
  565.  
  566.      *This newsletter is printed on 100% recycled electrons.*
  567. =============================================================
  568.  
  569. MEMBERSHIP IN THE ELECTRONIC FRONTIER FOUNDATION
  570.  
  571. In order to continue the work already begun and to expand our efforts and
  572. activities into other realms of the electronic frontier, we need the
  573. financial support of individuals and organizations.
  574.  
  575. If you support our goals and our work, you can show that support by
  576. becoming a member now. Members receive our biweekly electronic newsletter,
  577. EFFector Online (if you have an electronic address that can be reached
  578. through the Net), and special releases and other notices on our activities.
  579.  But because we believe that support should be freely given, you can
  580. receive these things even if you do not elect to become a member.
  581.  
  582. Your membership/donation is fully tax deductible.
  583.  
  584. Our memberships are $20.00 per year for students and $40.00 per year for
  585. regular members.  You may, of course, donate more if you wish.
  586.  
  587. =============================================================
  588. Mail to: 
  589.          Membership Coordinator
  590.          Electronic Frontier Foundation
  591.          1001 G Street, N.W.
  592.          Suite 950 East
  593.          Washington, DC  20001  USA
  594.  
  595. Membership rates:
  596.             $20.00 (student or low income membership)
  597.             $40.00 (regular membership)
  598.  
  599.  
  600. [   ]  I wish to become a member of the EFF.  I enclose: $_______
  601. [   ]  I wish to renew my membership in the EFF.  I enclose: $_______
  602. [   ]  I enclose an additional donation of $_______
  603.  
  604. Name:
  605.  
  606. Organization:
  607.  
  608. Address:
  609.  
  610. City or Town:
  611.  
  612. State:            Zip:           Phone: (      )                  (optional)
  613.  
  614. FAX: (      )                   (optional)
  615.  
  616. E-mail address:
  617.  
  618. I enclose a check [  ].
  619. Please charge my membership in the amount of $
  620. to my Mastercard [  ]  Visa [  ]  American Express [  ]
  621.  
  622. Number:
  623.  
  624. Expiration date:
  625.  
  626. Signature: ______________________________________________
  627.  
  628. Date:
  629.  
  630. I hereby grant permission to the EFF to share my name with
  631. other nonprofit groups from time to time as it deems
  632. appropriate.                       Initials:______________________
  633.  
  634.  
  635.